期刊
  出版年
  关键词
结果中检索 Open Search
Please wait a minute...
选择: 显示/隐藏图片
1. 基于去噪自编码器的极限学习机
来杰, 王晓丹, 李睿, 赵振冲
计算机应用    2019, 39 (6): 1619-1625.   DOI: 10.11772/j.issn.1001-9081.2018112246
摘要396)      PDF (1055KB)(285)    收藏
针对极限学习机算法(ELM)参数随机赋值降低算法鲁棒性及性能受噪声影响显著的问题,将去噪自编码器(DAE)与ELM算法相结合,提出了基于去噪自编码器的极限学习机算法(DAE-ELM)。首先,通过去噪自编码器产生ELM的输入数据、输入权值与隐含层参数;然后,以ELM求得隐含层输出权值,完成对分类器的训练。该算法一方面继承了DAE的优点,自动提取的特征更具代表性与鲁棒性,对于噪声有较强的抑制作用;另一方面克服了ELM参数赋值的随机性,增强了算法鲁棒性。实验结果表明,在不含噪声影响下DAE-ELM相较于ELM、PCA-ELM、SAA-2算法,其分类错误率在MNIST数据集中至少下降了5.6%,在Fashion MNIST数据集中至少下降了3.0%,在Rectangles数据集中至少下降了2.0%,在Convex数据集中至少下降了12.7%。
参考文献 | 相关文章 | 多维度评价
2. 基于多类指数损失函数逐步添加模型的改进多分类AdaBoost算法
翟夕阳, 王晓丹, 雷蕾, 魏晓辉
计算机应用    2017, 37 (6): 1692-1696.   DOI: 10.11772/j.issn.1001-9081.2017.06.1692
摘要514)      PDF (877KB)(464)    收藏
多类指数损失函数逐步添加模型(SAMME)是一种多分类的AdaBoost算法,为进一步提升SAMME算法的性能,针对使用加权概率和伪损失对算法的影响进行研究,在此基础上提出了一种基于基分类器对样本有效邻域分类的动态加权AdaBoost算法SAMME.RD。首先,确定是否使用加权概率和伪损失;然后,求出待测样本在训练集中的有效邻域;最后,根据基分类器针对有效邻域的分类结果确定基分类器的加权系数。使用UCI数据集进行验证,实验结果表明:使用真实的错误率计算基分类器加权系数效果更好;在数据类别较少且分布平衡时,使用真实概率进行基分类器筛选效果较好;在数据类别较多且分布不平衡时,使用加权概率进行基分类器筛选效果较好。所提的SAMME.RD算法可以有效提高多分类AdaBoost算法的分类正确率。
参考文献 | 相关文章 | 多维度评价
3. 基于损失函数的AdaBoost改进算法
雷蕾 王晓丹
计算机应用    2012, 32 (10): 2916-2919.   DOI: 10.3724/SP.J.1087.2012.02916
摘要927)      PDF (559KB)(490)    收藏
针对AdaBoost集成时难分样本权重扩张导致训练样本在更新时分布失衡的问题,提出一种基于正负类样本损失函数(LF)的权重更新策略。权重的调整不仅与训练误差有关,还考虑到基分类器对不同类别样本的正确分类能力,从而避免训练样本过度集中于某一类的异常现象。实验结果表明,基于LF的AdaBoost能在提高收敛性能的情况下,提高算法精度,克服样本分布失衡问题。偏差方差分析的结果显示,该算法在改善偏差的情况下,能有效地减小错误率中的方差成分,提高集成的泛化能力。
参考文献 | 相关文章 | 多维度评价
4. 一种新的SVM对等增量学习算法
王晓丹 郑春颖;吴崇明
计算机应用   
摘要1934)      PDF (725KB)(1330)    收藏
在分析支持向量机(SVM)寻优问题的KKT条件和样本分布之间关系的基础上,分析了新增样本的加入对SV集的影响,定义了广义KKT条件。基于原训练样本集和新增训练样本集在增量训练中地位等同,提出了一种新的SVM增量学习算法。算法在及时淘汰对后继分类影响不大的样本的同时保留了含有重要分类信息的样本。对标准数据集的实验结果表明,算法获得了较好的性能。
相关文章 | 多维度评价
5. 基于SAMME的改进多分类AdaBoost算法
翟夕阳 王晓丹 雷蕾
  
录用日期: 2017-01-02